As tecnologias da informação produzem diversas mudanças na vida social. Por exemplo, novas formas de interação social entre indivíduos distantes fisicamente, porém conectados pela internet. Esses efeitos podem parecer inofensivos, mas eles podem se tornar um assunto bastante controverso. A tecnologia não apenas expande o alcance da ação humana, ela pode alterar permanentemente o modo como as pessoas se relacionam e também o que elas esperam de uma interação social. A leitura que se faz da pessoa com quem se está interagindo, por exemplo, é diferente quando não se pode avaliar suas reações emocionais e componentes não-verbais da comunicação.
Com o avanço da análise de dados, é provável que os aplicativos consigam ler sinais gestuais ou analisar sentenças e tom de voz de uma pessoa, usando câmera e microfone, para compreender o comportamento de usuários melhor do que eles mesmos compreendem. Quais seriam as implicações éticas desse tipo de tecnologia?
Algumas técnicas de avaliação psicológica deveriam ser usadas apenas com consentimento, por uma pessoa qualificada e somente num contexto terapêutico. Usar certas técnicas de psicologia fora dessas condições é eticamente questionável, pois as consequências podem ser desastrosas. Infelizmente tais técnicas são rotineiramente usadas por praticantes de coaching, e podem ser aplicadas para novas tecnologias de interação também.
Em 1936, Dale Carnegie lançou um livro chamado Como fazer amigos e influenciar pessoas, que se tornou um dos mais vendidos e mais influentes de todos os tempos, sendo o grande responsável pelo estabelecimento do gênero conhecido como “auto-ajuda”. No livro, Carnegie enumera uma série de dicas para ser melhor sucedido nas interações. Mais recentemente, o livro recebeu uma atualização para o contexto da era digital, mostrando que ele permanece relevante nas interações via internet.
Essas técnicas podem realmente ajudar a lidar com pessoas, mas também podem dar ferramentas perigosas nas mãos de pessoas com traços sociopatas. Num artigo de 2013, Diane Brady lembra que Jeff Guinn, autor de um livro sobre Charles Manson, afirmou que “foi o treinamento de Carnegie que auxiliou a transformação de Manson de ‘um cafetão de baixo nível’ para um ‘sociopata assustadoramente eficaz’, que criou um culto de assassinos no final dos anos 1960”. Quando tais técnicas estão facilmente disponíveis para serem usadas por qualquer pessoas e para qualquer fim, problemas irão surgir.
A normalização de certas tecnologias sociais antes que compreendamos seu efeito na subjetividade também pode ser um problema. Isso já está acontecendo nas redes sociais, quando as técnicas para “ganhar mais seguidores” alteram a lógica das interações cotidianas. Fica pior ainda quando as novas gerações já tem sua socialização primária mediada por estas disposições.
Outro problema diz respeito à nossa relação com inteligências artificiais. O problema de convivermos com simulações pode ser observado no efeito de “dating sims” (simuladores de encontros) na sociabilidade. Estes softwares oferecem interações simuladas para pessoas que podem nunca ter experimentado interações daquele tipo na vida real, o que pode moldar suas disposições afetivas na vida real.
No artigo Should Children Form Emotional Bonds With Robots? (Crianças deveriam formar laços afetivos com robôs?), Alexis Madrigal cita Sherry Turkle para criticar essa mediação tecnológica logo na infância, afirmando que crianças precisam de conexões com pessoas reais para amadurecer emocionalmente. “Empatia simulada não é suficiente. Se os relacionamentos com brinquedos inteligentes nos afastam daqueles com amigos ou familiares, mesmo parcialmente, poderemos ver crianças crescendo sem as condições necessárias para uma conexão empática. Você não pode aprender isso com uma máquina”.
Mas será que nossa sociedade providencia um ambiente onde as relações com pessoas reais podem acontecer sem serem mediadas por tecnologias? Será que as condições para o amadurecimento emocional estão igualmente disponíveis para todas as pessoas? Será que adultos são emocionalmente maduros o suficiente para lidar com as novas tecnologias da informação?
Existe um risco de se perder referências sociais e emocionais, na medida em que a distinção entre uma reação humana real e uma simulada se dissipa. As relações emocionais maduras são resultado de uma construção social. Quando se interage com um robô dizendo “é só um robô, posso fazer o que quiser”, uma parte da empatia para com pessoas reais pode ser comprometida. Um fenômeno semelhante ocorre com a banalização da violência, quando se diz “é só um filme”. O efeito dessa perda de empatia afeta principalmente certo arranjo de gênero, classe e etnia, o que significa que essa perda de empatia se reflete principalmente numa intolerância racista, sexista e elitista.
No artigo Not every kid-bond matures (Nem todo vínculo infantil amadurece), Gabriel Winant, resenhando o livro Kids These Days: Human Capital and the Making of Millennials (Crianças nos dias de hoje: capital humano e a geração dos millennials), de Malcolm Harris, argumenta:
“A crise generalizada do capitalismo (…) impôs uma enorme pressão competitiva aos jovens para produzir ‘capital humano’. Esse conceito, essencial no pensamento econômico neoliberal, quantifica o conjunto de qualidades humanas economicamente valiosas, educação, habilidades, disciplina, acumuladas ao longo de uma vida. Está no subtítulo do livro porque é a chave do argumento de Harris. A mão oculta que molda millennials, produzindo nossos atributos estereotipados aparentemente diversos e até contraditórios, é o imperativo de intensificação, tanto exterior como também profundamente internalizado, da maximização do nosso próprio valor econômico potencial. (…) O capitalismo está comendo nossos jovens. É só nos alimenta com abacates para nos engordar primeiro.”
É possível deduzir uma relação entre a mediação tecnológica da interação e o conceito de capital humano? Isso exigiria mais pesquisa, porém permita-me adicionar mais um ingrediente nesta sopa e problematizar um pouco mais.
Num artigo de 2018, chamado How the Self-Driving Dream Might Become a Nightmare (Como o sonho da auto-direção pode se tornar um pesadelo), David Alpert pergunta: “O que acontecerá se aceitarmos que um certo número de mortes de pedestres é uma parte inevitável da adoção de veículos autônomos?”. Este problema ético não é tão simples quanto parece. Não basta, por exemplo, dizer que os pilotos automáticos são mais seguros que os motoristas humanos, porque há outros fatores nessa questão. Por exemplo: quem será responsabilizado por esses acidentes? A reflexão foi estimulada pela notícia da primeira morte num acidente com veículo auto-dirigido. A conclusão do autor é que, provavelmente, os próprios pedestres podem ser responsabilizados.
Alpert oferece o seguinte experimento mental: imagine que duas empresas concorrentes ofereçam o mesmo serviço de transporte com veículos autônomos. Uma delas tem um algoritmo um pouco mais cuidadoso para evitar acidentes, e a outra tem um algoritmo mais “ousado”, que resulta em tempos de viagens significativamente menores. Uma pessoa atrasada para uma reunião importante escolhe o serviço que oferece mais rapidez, e no caminho uma pessoa é atropelada. Qual a responsabilidade da pessoa que, sinceramente, só queria chegar mais rápido ao seu compromisso?
A tendência das empresas é dizer que há “pessoas demais na rua”, e as mortes de pessoas podem acabar sendo justificadas em nome da velocidade, do mesmo modo como já são quando se escolhe locomover-se de carro e não com transporte público.
As reflexões éticas em relação a veículos autônomos podem ser aplicadas a outras tecnologias. De quem seria a responsabilidade pela insensibilização e perda da referência emocional com o uso de tecnologias sociais, por exemplo?
Em What Do We Know About Autonomous Vehicles?, Carl Anderson defende que veículos autônomos terão muito impacto em nossas vidas, mas essa tecnologia “está chegando”, não há nada que possamos fazer para impedi-la de ser desenvolvida, e nossas reflexões éticas deveriam se restringir a pensar em como conviver com ela. Essa posição me parece irrazoável, determinista e eticamente injustificável.
A afirmação de que certa tecnologia “já está aqui” e não pode ser resistida implica num posicionamento ético que dá um valor intrínseco ao desenvolvimento tecnológico. É uma atitude determinista afirmar que algo será feito independente das nossas considerações éticas. É também um tipo de otimismo injustificado, que pressupõe que nenhum problema ainda desconhecido se colocará no caminho desse desenvolvimento, como de fato ocorreu em diversos momentos da história, em que se construiu uma imagem de futuro que na verdade não se realizou.
Anderson reduz as questões éticas relacionadas à essa tecnologia dizendo: “As pessoas morrerão à medida que desenvolvemos as capacidades de veículos autônomos – assim como as pessoas morreram durante o desenvolvimento de aeronaves, viagens espaciais ou submarinas. As grandes inovações sempre têm um custo humano, mas a tecnologia sem motorista deve resultar em uma redução significativa das mortes anuais de automóveis”.
O que acontece quando assumimos a validade dessa justificação? Pessoas irão morrer, mas essas mortes são apenas o “custo humano” de todas as tecnologias. Cientistas tem o direito de sacrificar vidas em nome do progresso científico? Se há uma linha que separa a ética da ciência da realidade do avanço científico, como traçá-la?
Anderson diz que:
“Inevitavelmente, os veículos se deparam com o “problema do bonde”, um dilema ético em que o veículo precisa decidir entre duas ou mais ações, cada uma com algum custo – por exemplo, o que é pior: desviar para a esquerda e matar quatro avós ou desviar à direita e matar uma mãe e seu bebê? Alguém tem que programar esses comportamentos ou desenvolver uma IA que aprenda a tomar essa decisão. Não temos certeza de quem tomará essas decisões éticas e quem as regulamentará.”
O problema é que, assumir que tal programação seria eticamente válida é um equívoco. Como Brianna Rennix e Nathan J. Robinson argumentam em The Trolley Problem Will Tell You Nothing Useful About Morality (O problema do bonde não lhe dirá nada útil sobre a moralidade), reduzir a ética a esse experimento mental não apenas é equivocado em termos filosóficos, como pode ser prejudicial à saúde mental, reduzindo nossa capacidade empática.
Outra afirmação de Carl Anderson: “Assim como os smartphones dissolvem a separação entre vida profissional e doméstica, os veículos autônomos também dissolvem a separação entre vida doméstica, de transporte e de escritório”. Em outras palavras, as pessoas poderão trabalhar enquanto comutam. E como exatamente este autor pensa que isso seria bom para a sociedade?
O mesmo tipo de problema ético vem à tona quando se considera o estudo dos algoritmos e técnicas de mineração de dados para maximização da influência em redes sociais. O que acontece quando descobrimos as técnicas mais eficazes de “incentivar pessoas a adotar uma linha de pensamento”? Na prática isso significa manipulação. A ideia de que precisamos “manipular ou ser manipulados” pode estar se popularizando na internet, com efeitos desastrosos para a ética.
Eu não vou tentar solucionar este problema aqui. Mas as implicações éticas complexas das novas tecnologias são um dos motivos que devem nos levar a questionar a lógica inerente ao progresso tecnológico de modo ainda mais fundamental do que temos feito até agora. A radicalização das críticas à modernidade pode transformar a filosofia num incômodo para entusiastas do progresso científico, mas pode também evitar a perda de aspectos fundamentais da nossa humanidade.
(Originalmente publicado em Contrafatual)
Publicado em: 24/06/20
De autoria: Janos Biro Marques Leite
A Casa de Vidro Ponto de Cultura e Centro de Mídia